OpenAI发布人工智能“准备框架”,解决最先进模型的安全问题
12月18日,人工智能公司OpenAI在其网站上发布的一份计划显示,该公司制定了一个框架,以解决其最先进模型的安全问题,包括允许董事会撤销安全决定。
OpenAI表示,只有在网络安全和核威胁等特定领域技术应用被认为是安全的情况下,才会部署其最新技术。该公司还成立了一个咨询小组,负责审查安全报告,并将其提交给公司高管和董事会。虽然高管会做决定,但董事会可以推翻这些决定。
自一年前ChatGPT 推出以来,人工智能的潜在危险一直是人工智能研究人员和公众最关心的问题。生成式人工智能技术以其写诗和散文的能力让用户眼花缭乱,但也因其传播虚假信息和操纵人类的潜力而引发了安全担忧。
今年4月,一群人工智能行业领袖和专家签署了一封公开信,呼吁暂停六个月开发比OpenAI的GPT-4更强大的系统,理由是对社会存在潜在风险。
可见,对前沿人工智能风险的研究远远没有达到我们需要达到的水平。为了解决这一差距,OpenAI引入了“准备框架”(Preparedness Framework)。它描述了OpenAI跟踪、评估、预测和防范日益强大的模型带来的灾难性风险的过程。
这一“准备框架”包含五个关键要素:
01
通过评估跟踪灾难风险等级
OpenAI将按照几个跟踪风险类别,建立并不断改进成套的评估和其他监测解决方案,并在记分卡中显示缓解前和缓解后风险水平。重要的是,OpenAI还将对风险的未来发展进行预测,以便能够制定安全和安保措施。
02
寻找未知的因素
OpenAI将不断对目前未知的灾难性风险类别进行识别和分析(以及跟踪)。
03
建立安全基线
只有缓解后得分在“中”或以下的模型才能部署,只有缓解后得分在 "高 "或以下的模型才能进一步开发。此外,OpenAI将确保安全性适合任何缓解前风险水平为“高”或“临界”的模型。OpenAI还制定了程序承诺,进一步明确如何实施“准备框架”概述的所有活动。
04
指派准备小组进行实地工作
准备小组将推动“准备框架”的技术工作和维护,包括进行研究、评估、监测和预测风险,并通过定期向安全咨询小组报告对这些工作进行总结。这些报告将包括对最新证据的总结,并就使OpenAl能够提前计划所需的变革提出建议。准备小组还将呼吁相关小组(如安全系统、安保、政策研究)提供建议的缓解措施,并与之协调,以纳入这些报告。此外,准备小组还将管理安全演习,并与可信人工智能团队协调进行第三方审计。
05
跨职能咨询机构
OpenAl正在创建一个安全咨询小组 (SAG),汇集公司各部门的专业知识,帮助OpenAl的领导层和董事会为他们需要做出的安全决策做好最充分的准备。因此,SAG的职责将包括监督对风险状况的评估,以及维护处理紧急情况的快速通道流程。
来源|Reuters,OpenAl
编译|林心雨
审核|唐巧盈